iPAS AI應用規劃師 初級

L12303 生成式AI風險管理
出題方向
1
倫理風險 (偏見、歧視)
2
資訊風險 (幻覺、錯誤資訊)
3
資料安全與隱私風險
4
合規性與法律風險 (版權)
5
濫用與惡意使用風險
6
輸出品質與可靠性風險
7
風險管理策略與治理
#1
★★★★★
生成式 AI風險管理中,倫理風險主要關注的問題不包含下列何者?
A
模型輸出的偏見Bias)與歧視Discrimination
B
決策過程的公平性Fairness
C
模型的計算效率推論速度
D
對個人自主權與尊嚴的影響
答案解析
倫理風險主要關注的是 AI 系統可能對個人、群體或社會產生的道德層面的負面影響。選項 A、B、D 都是重要的倫理考量,如模型可能因訓練資料帶有偏見而產生歧視性輸出、AI 決策是否對所有群體都公平、AI 的應用是否尊重人的自主權等。選項 C 模型的計算效率和速度屬於技術性能營運成本的考量,而非直接的倫理風險範疇。
#2
★★★★★
生成式 AI 模型產生「幻覺」(Hallucination)的現象,最主要的風險是什麼?
A
模型運算消耗過多資源。
B
產生看似真實但錯誤或虛假的資訊,可能誤導使用者。
C
模型生成內容過於單一,缺乏多樣性。
D
模型的回應速度過慢。
答案解析
幻覺指的是生成式 AI 產生了與事實不符、無中生有或缺乏證據支持的內容,但這些內容可能看起來非常流暢和自信。這種現象最大的風險在於它可能傳播錯誤資訊Misinformation)或假訊息Disinformation),誤導使用者的判斷和決策,尤其是在需要高度準確性的場景(如醫療、法律、新聞)。其他選項描述的是性能、多樣性或效率問題,而非幻覺的核心風險。
#3
★★★★★
在使用基於雲端的生成式 AI 服務(如 ChatGPT)時,主要的資料安全與隱私風險是什麼?
A
模型的回應不夠有創意。
B
使用者輸入的提示Prompt)或資料可能被服務提供商收集或用於模型再訓練,導致敏感資訊外洩
C
服務可能會突然中斷。
D
需要支付訂閱費用。
答案解析
當使用者與雲端生成式 AI 互動時,輸入的提示內容(可能包含個人資訊、商業秘密或其他敏感資料)通常會傳輸到服務提供商的伺服器進行處理。許多服務的條款允許提供商收集這些數據,甚至將其用於改進模型。這就構成了主要的隱私風險,即使用者的敏感資訊可能被第三方存取、儲存或利用,甚至意外洩露。其他選項涉及的是模型性能、服務可靠性或成本問題。
#4
★★★★
生成式 AI 模型產生的內容(如圖像、音樂、程式碼)可能涉及哪項主要的法律與合規性風險
A
違反交通規則。
B
侵犯版權Copyright Infringement)或智慧財產權IP, Intellectual Property)。
C
未能通過軟體安全測試。
D
消耗過多電力資源。
答案解析
生成式 AI 模型是通過學習大量現有數據(文本、圖像、程式碼等)來生成新內容的。在這個過程中,模型可能會學習到受版權保護作品的風格、模式甚至具體片段,並在生成的內容中再現出來。這就可能導致生成的內容侵犯他人的版權智慧財產權,引發法律糾紛。這是目前生成式 AI 領域一個非常重要的合規性風險。其他選項與生成式 AI 內容本身的法律風險關聯較小。
#5
★★★★
利用生成式 AI 技術製作深偽Deepfake)影片或音訊來進行詐騙或散播不實訊息,屬於哪一類型的風險?
A
資料隱私風險
B
濫用Misuse)與惡意使用Malicious Use)風險
C
模型偏見風險
D
模型可靠性風險
答案解析
深偽技術利用生成式 AI 創造出高度逼真但虛假的影像或聲音。將這種技術用於詐騙(如模仿他人聲音要求匯款)或散播不實訊息(如製造假新聞影片),是典型的惡意利用 AI 技術的行為,對個人名譽、社會信任乃至國家安全都可能造成危害,屬於濫用與惡意使用的風險範疇。
#6
★★★★
在評估生成式 AI風險管理時,為何需要關注其輸出內容的品質與可靠性
A
確保模型使用的演算法是最先進的。
B
避免模型產生不準確、不相關或有害的內容,影響使用者信任與應用效果。
C
降低模型的訓練成本。
D
提升模型的程式碼效率。
答案解析
生成式 AI 的核心價值在於其產生的內容。如果產生的內容品質低劣、充滿錯誤(如幻覺)、與用戶需求不相關,甚至包含有害或歧視性資訊,那麼這個 AI 應用不僅無法達到預期效果,還可能損害使用者體驗、造成誤導、引發倫理爭議,最終失去使用者的信任。因此,管理和確保輸出內容的品質與可靠性生成式 AI 風險管理的關鍵環節。
#7
★★★★★
企業或機構在導入生成式 AI 時,建立清晰的治理架構Governance Framework)主要目的是什麼?
A
加快模型開發的速度。
B
確保 AI 的開發和使用符合法律法規、倫理標準和組織目標,並明確責任歸屬
C
選擇最便宜的雲端服務供應商。
D
減少對外部技術顧問的依賴。
答案解析
一個有效的AI 治理架構旨在為 AI 的整個生命週期(從開發、部署到監控)提供指導原則、流程和控制機制。其主要目的包括:確保遵守相關法律法規(如隱私保護反歧視法);符合倫理規範(如公平性透明度);與組織的戰略目標和價值觀保持一致;並建立清晰的問責制度,明確各方在 AI 風險管理中的責任。這有助於負責任地引導 AI 發展,降低潛在風險。
#8
★★★★
生成式 AI 可能從訓練資料中學習並放大社會偏見,這可能導致什麼後果?
A
模型生成速度變慢。
B
產生對特定群體不公平或歧視性的輸出內容。
C
模型更容易被駭客攻擊。
D
模型需要更多的訓練資料。
答案解析
如果用於訓練生成式 AI 的數據反映了現實社會中存在的偏見(例如,性別刻板印象、種族歧視),模型在學習這些數據模式時,很可能也會學到這些偏見,並在其生成的內容中再現甚至放大。這會導致模型產生對某些群體不公平、帶有歧視色彩或刻板印象的輸出,造成倫理問題和社會危害。
#9
★★★★
為了降低生成式 AI 產生錯誤資訊的風險,可以採取下列哪項措施?
A
增加模型的參數數量。
B
完全依賴模型的自主學習。
C
結合檢索增強生成RAG, Retrieval-Augmented Generation)技術,讓模型參考可靠的外部知識庫
D
減少對模型輸出的事實查核。
答案解析
檢索增強生成 (RAG) 是一種減輕大型語言模型產生幻覺和錯誤資訊的有效技術。它的原理是在生成回應之前,先從一個可信賴的外部知識庫(如企業內部文件、經過驗證的資料庫)中檢索相關資訊,然後將這些檢索到的資訊作為上下文提供給生成式 AI 模型,引導模型基於這些可靠資訊來生成回應,從而提高輸出的準確性和事實性。增加參數(A)或完全依賴自主學習(B)可能反而增加幻覺風險。減少事實查核(D)顯然是錯誤的。
#10
★★★★
生成式 AI風險管理中,提示注入Prompt Injection)攻擊主要威脅到哪方面?
A
模型的訓練效率。
B
模型的公平性。
C
系統的安全性,可能導致模型執行非預期或惡意的指令
D
模型的能源消耗。
答案解析
提示注入是一種針對基於提示的 AI 系統(尤其是大型語言模型)的攻擊方式。攻擊者透過精心設計的輸入提示,試圖覆蓋或繞過開發者設定的原始指令,誘導模型執行非預期的、甚至是有害的操作,例如洩露敏感資訊、生成不當內容、或執行惡意程式碼等。這直接威脅到 AI 應用程式的安全性
#11
★★★
如果一個生成式 AI 應用被用於商業用途,產生了與某知名品牌極度相似的標誌設計,這可能違反了什麼法律?
A
個人資料保護法
B
商標法 (Trademark Law)
C
勞動基準法
D
環境保護法
答案解析
品牌標誌(Logo)是商標法保護的對象。生成式 AI 如果產生了與已註冊商標高度相似的標誌,並用於商業活動,極有可能構成商標侵權,違反商標法的規定。這屬於生成式 AI法律與合規性風險
#12
★★★
利用生成式 AI 大量自動生成釣魚郵件或社交工程訊息,是哪種風險的體現?
A
模型幻覺風險
B
資料偏見風險
C
濫用與惡意使用風險
D
合規性風險
答案解析
生成式 AI 能夠快速生成大量看似可信的文本內容,這使得網路犯罪分子可以利用它來自動化和規模化地製造釣魚郵件 (Phishing Emails) 或進行社交工程 (Social Engineering) 攻擊。這是將 AI 技術用於非法或有害目的的典型例子,屬於濫用與惡意使用風險。
#13
★★★
如果一個生成式 AI 聊天機器人在回答使用者問題時,常常給出前後矛盾或不連貫的回應,這主要反映了哪方面的風險?
A
資料隱私風險
B
倫理偏見風險
C
輸出品質與可靠性風險
D
版權侵權風險
答案解析
前後矛盾或不連貫的回應直接影響了生成式 AI 輸出內容的品質和使用者體驗。這表明模型在維持對話一致性邏輯連貫性方面存在問題,屬於可靠性不足的風險。雖然深層原因可能與訓練數據或模型架構有關,但直接表現出來的是輸出品質的問題。
#14
★★★★
生成式 AI 風險管理中,「紅隊演練」(Red Teaming)是一種什麼樣的策略?
A
優化模型訓練效率的技術。
B
獨立團隊模擬攻擊者,主動尋找和利用 AI 系統的漏洞和弱點
C
僅用於測試模型是否產生偏見。
D
制定 AI 相關法律法規的過程。
答案解析
紅隊演練是一種主動的安全性測試方法。在 AI 風險管理中,它指由一個獨立的團隊(紅隊)扮演潛在的攻擊者或惡意使用者,嘗試透過各種手段(如提示注入、誘導偏見輸出、尋找安全漏洞等)來攻擊或濫用生成式 AI 系統,目的是在系統部署前或運行中發現潛在的風險和弱點,以便進行修補和防範。
#15
★★★
為了保護用戶隱私,生成式 AI 系統在處理輸入資料時,可以採用哪種技術來降低敏感資訊的風險?
A
增加模型複雜度。
B
僅使用公開數據進行訓練。
C
資料去識別化Data Anonymization)或假名化Pseudonymization)。
D
提高模型生成速度。
答案解析
資料去識別化假名化保護個人隱私的常用技術。去識別化旨在移除或修改資料中的個人識別資訊(PII, Personally Identifiable Information),使其無法直接關聯到特定個人。假名化則是用假名或代碼替換識別符。在將用戶輸入提交給生成式 AI 處理前,對其中的敏感資訊(如姓名、身分證號、地址)進行去識別化或假名化處理,可以有效降低隱私外洩的風險。
#16
★★★★
生成式 AI 的風險管理中,「負責任的 AI」(Responsible AI)原則強調的核心價值不包括下列何者?
A
公平性(Fairness)
B
透明度(Transparency)與可解釋性(Explainability)
C
利潤最大化Profit Maximization
D
問責性(Accountability)與安全性(Safety)
答案解析
負責任的 AI」是一套旨在確保 AI 系統的開發和部署能夠符合道德規範、社會價值並將風險降至最低的原則和實踐。其核心價值通常包括公平性可靠性安全性隱私保護包容性透明度問責性等。雖然企業追求利潤是正常的商業目標,但利潤最大化本身並非負責任的 AI」所強調的核心倫理或社會價值。
#17
★★★
企業要求員工在使用生成式 AI 工具時,不得輸入公司內部敏感資料,這主要是在管理哪一方面的風險?
A
模型偏見風險
B
幻覺風險
C
資料安全與隱私包含營業秘密)風險
D
版權侵權風險
答案解析
禁止員工將公司內部敏感資料(如客戶資訊、財務數據、研發機密、營業秘密等)輸入到公開的生成式 AI 工具中,最主要的目的是防止這些機密資訊外洩給第三方服務提供商或被用於模型訓練,從而保護公司的資料安全智慧財產權,並遵守隱私法規
#18
★★★★
為了減輕生成式 AI偏見風險,開發者在模型訓練階段可以做什麼?
A
盡可能使用單一來源的資料。
B
使用多樣化、具代表性的訓練資料,並進行偏見檢測與緩解
C
完全避免使用任何可能敏感的資料。
D
專注於提升模型的生成速度。
答案解析
模型偏見通常源於訓練資料中存在的偏見。為了減輕這種風險,關鍵在於從源頭(訓練數據)著手。使用涵蓋不同群體、觀點和背景的多樣化、具代表性的數據,有助於模型學習更全面的模式,減少對特定群體的刻板印象。此外,還需要在訓練前、中、後主動檢測數據和模型中的偏見,並採用相應的緩解技術(如數據增強、演算法調整等)。使用單一來源(A)或完全避免敏感資料(C)可能導致模型缺乏代表性或泛化能力。專注速度(D)與偏見無關。
#19
★★★
對於需要高度準確性和可靠性的應用場景(如醫療診斷輔助),生成式 AI 目前的主要局限性是什麼?
A
無法理解複雜的醫學術語。
B
生成的回應缺乏創意。
C
可能產生幻覺或不準確的資訊,可靠性有待驗證。
D
無法處理大量的病患資料。
答案解析
雖然生成式 AI 在許多領域展現潛力,但在醫療等高風險、高精確度要求的場景,其可靠性仍然是一個主要挑戰。模型產生幻覺(不實資訊)的可能性,以及對其決策過程缺乏完全的可解釋性,使得直接將其用於關鍵診斷或治療決策存在較大風險。目前的應用多限於輔助性質,且需要人類專家進行嚴格的審核與把關。
#20
★★★
企業制定生成式 AI 使用政策(Usage Policy)時,通常會包含哪些內容以管理風險?
A
僅規定可以使用的模型類型。
B
僅要求定期更新密碼。
C
關於允許輸入的資料類型、禁止的用途、輸出內容的驗證要求等。
D
僅限制員工每天的使用時間。
答案解析
一份有效的生成式 AI 使用政策需要涵蓋多個方面以管理潛在風險。這通常包括:明確禁止輸入個人敏感資訊或公司機密;規定禁止將 AI 用於非法、歧視性或不道德的目的;要求使用者對 AI 生成的內容進行事實查核和驗證,不能直接作為最終決策依據;以及可能涉及的智慧財產權歸屬等問題。
#21
★★★
如何應對生成式 AI 可能產生的錯誤資訊幻覺
A
完全信任 AI 的輸出。
B
對 AI 輸出的關鍵資訊進行交叉驗證和事實查核
C
只使用最新發布的 AI 模型。
D
增加 AI 模型的訓練時間。
答案解析
由於生成式 AI 存在產生幻覺錯誤資訊的可能性,使用者不能完全信任其輸出,尤其是在重要決策或資訊傳播中。最關鍵的應對措施是保持批判性思維,對 AI 提供的關鍵事實、數據或聲明,務必透過可靠的外部來源進行交叉驗證和事實查核。最新模型或更長訓練時間不保證完全消除幻覺。
#22
★★★★
生成式 AI 應用的風險管理中,為何權限控管Access Control)很重要?
A
為了提高模型的準確率。
B
為了限制對敏感資料的存取防止未經授權的使用
C
為了加快資料處理速度。
D
為了簡化使用者介面。
答案解析
生成式 AI 系統可能需要存取或處理敏感的訓練資料或用戶輸入資料。有效的權限控管機制(例如,基於角色的訪問控制 RBAC)能夠確保只有經過授權的人員才能訪問特定的數據或功能,從而防止資料外洩、濫用或未經授權的操作,是保護資料安全與隱私的重要措施。
#23
★★★
生成式 AI 訓練數據的來源若不透明,可能引發哪方面的合規性擔憂?
A
模型的回應不夠人性化。
B
數據來源是否合法取得、是否侵犯版權違反隱私規定。
C
模型的計算成本過高。
D
模型需要過多的硬體資源。
答案解析
如果生成式 AI 的訓練數據來源不明或不透明,將難以確定這些數據的取得方式是否合法,例如是否是從網路上非法抓取、是否包含了未經授權使用的受版權保護的內容、或者是否違反了個人資料保護的相關規定。這會帶來嚴重的法律與合規性風險
#24
★★
下列何者不屬於生成式 AI 可能被惡意使用的例子?
A
大規模生成假新聞。
B
製作深偽Deepfake)影片進行勒索。
C
使用生成式 AI 輔助科學研究論文寫作
D
自動生成惡意軟體的變種。
答案解析
惡意使用是指將技術用於非法、有害或不道德的目的。選項 A、B、D 都是生成式 AI惡意使用的潛在方式,可能造成社會危害或用於犯罪活動。選項 C 使用 AI 輔助合法的學術寫作(例如潤飾語句、檢查語法、整理文獻,而非直接抄襲或造假),通常被視為正面或中性的應用,不屬於惡意使用
#25
★★★
對於生成式 AI 產生的程式碼,應採取何種態度進行風險管理?
A
完全信任並直接部署。
B
視為輔助工具,產生的程式碼需經過人類專家的審查、測試和修改
C
僅用於非核心功能的開發。
D
禁止在任何軟體開發中使用。
答案解析
生成式 AI 產生的程式碼可能存在邏輯錯誤、安全漏洞或效能問題,也可能涉及版權(使用了受特定開源協議限制的程式碼片段)。因此,不能直接信任並部署。正確的風險管理態度是將其視為程式設計的輔助工具,開發人員應對其產生的程式碼進行仔細的審查、嚴格的測試,並根據需要進行修改和優化,確保程式碼的品質、安全性和合規性。
#26
★★★★
金融監督管理委員會發布的「金融業運用人工智慧(AI)指引」中,要求金融機構應建立全面且有效的 AI 相關風險管理機制,並整合至現行風險管理及內部控制作業流程。這主要體現了哪個核心原則?
A
促進永續發展
B
落實透明性與可解釋性
C
建立治理及問責機制
D
保護隱私及客戶權益
答案解析
根據「金融業運用人工智慧(AI)之核心原則與相關推動政策」附錄,原則一即為「建立治理及問責機制」。該原則的第二點明確指出:「金融機構應建立全面且有效的 AI 相關風險管理機制,並整合至現行風險管理及內部控制作業或流程中,且應進行定期的評估及測試。」這直接對應了題目所述的要求,強調建立完善的內部管理和控制體系以應對 AI 風險。
#27
★★★★
依據「公部門人工智慧應用參考手冊」,在使用生成式 AI 時,若模型產生了帶有性別刻板印象的回應,這觸及了哪個主要的倫理議題
A
資料外洩
B
偏見與公平性
C
模型幻覺
D
智慧財產權
答案解析
「公部門人工智慧應用參考手冊」在 4.2 倫理議題中明確提到了偏見與公平性的問題。產生帶有性別刻板印象的回應,正是模型從訓練資料中學習到社會偏見並將其再現的結果,這直接違背了公平性原則,可能對特定性別群體造成不公平的對待或歧視
#28
★★★★★
根據「金融業運用人工智慧(AI)指引」,金融機構在使用生成式 AI 時,為避免客戶資料外洩,應注意下列何種風險管控?
A
模型產生幻覺的風險。
B
不得提供未經客戶同意的個人資料生成式 AI
C
模型回應速度過慢的風險。
D
模型產生偏見內容的風險。
答案解析
「金融業運用人工智慧(AI)指引」第三章「保護隱私及客戶權益」中,特別強調了隱私保護。其 3. (二) 指出:「金融機構應注意運用 AI 系統可能導致之客戶資料外洩風險。以生成式 AI 之運用為例,在無適當管控機制下,金融機構人員不得向生成式 AI 提供未經客戶同意提供之資訊。」這是保護客戶隱私、防止資料外洩的關鍵措施。
#29
★★★★
依據「公部門人工智慧應用參考手冊」,下列何者是 AI 治理Governance)的核心目的?
A
確保 AI 模型達到最高的預測準確率。
B
確保 AI 的開發與應用符合法規、倫理與社會價值,並建立問責機制
C
加速 AI 技術的商業化進程。
D
降低 AI 系統的開發成本。
答案解析
根據手冊 4.5 AI 治理架構所述,AI 治理涉及 AI 系統生命週期中的風險管理權益保障資料隱私合規性倫理等多個層面。其核心目的在於建立一套指導原則和管理機制,確保 AI 的發展和應用是負責任的、可信賴的,符合法律倫理社會的期望,並能在出現問題時追溯責任
#30
★★★
生成式 AI 被用於內容審核時,可能因其內在偏見而產生什麼風險?
A
審核速度過慢。
B
對某些特定觀點或群體的內容進行不公平的壓制或標記
C
無法審核圖像內容。
D
過度消耗計算資源。
答案解析
如果用於訓練內容審核模型的生成式 AI 本身帶有偏見(例如,對某些政治觀點、宗教信仰或社會群體的內容更為敏感),那麼在進行內容審核時,它可能會不公平地標記或過濾掉某些合法的言論,或者對不同群體的相似內容給予不同的處理,從而壓制言論自由或造成歧視。這屬於偏見導致的倫理風險